AI资讯新闻榜单内容搜索-KV cache

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: KV cache
优于o1预览版,推理阶段KV缓存缩减一半,LightTransfer降本还能增效

优于o1预览版,推理阶段KV缓存缩减一半,LightTransfer降本还能增效

优于o1预览版,推理阶段KV缓存缩减一半,LightTransfer降本还能增效

LLM 在生成 long CoT 方面展现出惊人的能力,例如 o1 已能生成长度高达 100K tokens 的序列。然而,这也给 KV cache 的存储带来了严峻挑战。

来自主题: AI技术研报
4656 点击    2025-03-11 09:32
阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

随着当前大语言模型的广泛应用和推理时扩展的新范式的崛起,如何实现高效的大规模推理成为了一个巨大挑战。特别是在语言模型的推理阶段,传统注意力机制中的键值缓存(KV Cache)会随着批处理大小和序列长度线性增长,俨然成为制约大语言模型规模化应用和推理时扩展的「内存杀手」。

来自主题: AI技术研报
6482 点击    2025-01-18 09:57
1-bit大模型还能再突破!新一代BitNet架构启用4位激活值

1-bit大模型还能再突破!新一代BitNet架构启用4位激活值

1-bit大模型还能再突破!新一代BitNet架构启用4位激活值

近日,BitNet系列的原班人马推出了新一代架构:BitNet a4.8,为1 bit大模型启用了4位激活值,支持3 bit KV cache,效率再突破。

来自主题: AI技术研报
6540 点击    2024-12-05 11:12
KV Cache:图解大模型推理加速方法

KV Cache:图解大模型推理加速方法

KV Cache:图解大模型推理加速方法

KV Cache 是大模型推理性能优化的一个常用技术,该技术可以在不影响任何计算精度的前提下,通过空间换时间的思想,提高推理性能。

来自主题: AI资讯
7065 点击    2024-09-03 10:46
2.5%KV缓存保持大模型90%性能,大模型金字塔式信息汇聚模式探秘|开源

2.5%KV缓存保持大模型90%性能,大模型金字塔式信息汇聚模式探秘|开源

2.5%KV缓存保持大模型90%性能,大模型金字塔式信息汇聚模式探秘|开源

用KV缓存加速大模型的显存瓶颈,终于迎来突破。 北大、威斯康辛-麦迪逊、微软等联合团队提出了全新的缓存分配方案,只用2.5%的KV cache,就能保持大模型90%的性能。 这下再也不用担心KV占用的显存容量过高,导致显卡不够用了。

来自主题: AI技术研报
5672 点击    2024-06-13 21:21